문서의 임의 삭제는 제재 대상으로, 문서를 삭제하려면 삭제 토론을 진행해야 합니다. 문서 보기문서 삭제토론 대한민국 공인회계사 (문단 편집) ==== 대중은 인공지능의 회계감사를 수용할 수 없을 것 ==== * 회계감사나 재판은 불특정 다수의 대중에게 큰 피해를 줄 수 있는 중요한 문제이다. 회계사의 업무분야는 기업과 각종 이해관계자들의 삶에 막대한 영향을 미칠 수 있다. 외부감사인의 회계감사는 단순한 사실관계 확인이라 할 수 없다. 그로 인한 결과는 사실의 확인을 넘어서 특정인 혹은 불특정 다수, 그리고 절대 다수의 국민경제에 막대한 영향을 끼칠 수 있기 때문이다. 이를테면 [[회계감사]]에서 외부감사인은 감사대상회사의 재무제표에 감사 의견을 낼 수 있는데, 감사 의견의 결과에 따라 상장폐지 등의 제재를 당할 수 있다. 상장폐지라 함은 단기적 자금 사정이 어려운 기업에게 있어서는 증자와 같은 증권시장에서의 자금 모집이 불가능함만을 의미하는 것을 넘어서 채권자들로부터 차입자금의 상환 압박이 들어올 가능성이 높기 때문에 부도 혹은 파산의 가능성이 높다. 즉, 외부감사인의 '의견 거절'은 기업 입장에선 사형 선고가 될 수 있을만큼 어마어마한 효과가 있는 것이다. 기업의 파산은 관련된 이해관계자[* 주주, 채권자, 임직원, 각종 관계회사와 그 이해관계자, 관련된 지역 주민, 이해관계자들의 가족 등등]들의 인생에 큰 영향을 끼칠 수 있는 매우 중요한 의사결정이다. 1990년대 대우그룹 분식사건이 한국 경제에 미쳤던 영향처럼 외부감사인의 결정의 사회적 파장은 크다. 다양하고 복잡한 수많은 거래들을 재무제표라는 몇장의 정리된 표로 만드는 일은 항상 복잡하고 미묘하면서도 애매한 판단의 문제가 있게 된다. 같은 사건을 두고도 수익으로 인식해야 하는가 부채로 인식하여야 하는지에 대해서 이해당사자들간에 이해충돌이 발생할 가능성은 다분하고, 그에 따라 기업의 미래실적에 막대한 영향을 미칠수 있을 뿐만 아니라 경우에 따라서는 기업자체가 소멸할 수도 있다. * 기계는 감정이나 공감 능력이 배제된 채 수학적인 계산과 논리적 알고리즘에 의해 판단한다. 따라서 대중은 사람의 삶에 관한 최종 결정을 맡기는 것을 수용하지 않을 것이다. 이런 상황에서 순순히 인공지능의 판단에 따르기만 하는 '맹목적 숭배' 행위에 가까운 행동을 할 리가 없다. 아무리 기계가 발전해도 인간사회의 주인은 인간이고 내 인생을 작살내는 결정권자는 기계에 불과하다고 누구나 똑같이 생각할 것이기 때문이다. 중요한 의사결정을 사람이 아닌 기계가 결정한다면, 기술적으로 가능하다 할지라도 수많은 이해관계인이 이를 인정하고 받아들일 것인가의 문제가 발생한다. 이는 '전문가의 판단 능력이 인공지능보다 나은가'라는 능력의 상하를 논하는 문제가 아니다. 그래서 인공지능이 대체할 수 있는가 아닌가의 논란의 가장 중요한 주제는 '인공지능의 선택의 결과를 인간이 수용할 수 있는가'에 있다. 기술적으로 회계사의 주요 업무를 대체하는 것이 가능하다고 가정한다고 하더라도 사람들이 기계의 가치판단을 수용할 수 없을 것이다. 큰 손해를 보게 되는 결정을 받아들이는 입장에서 한낱 인간조차 되지않는 기계가 나의 인생을 결정했다는 사실을 받아들일 수 있을까? 수만명의 인생이 걸린 결정이라면 그에 따른 저항은 더 커질 수밖에 없다. 결국은 인간과 인간과의 관계의 문제이므로 이를 기계에 맡겨야 한다는 주장은 많은 사람들의 저항에 부딪히게 될 가능성이 있다. 특히 회계감사의 경우는 재판과 마찬가지로, 적어도 인공지능이 사람을 경제적으로 '심판'하는 위치에 서있다는 것을 간과해서는 안된다. 대다수의 국민이 이걸 수용할 수 있어야만 실제로 제도가 국회를 통과하여 작동할 수 있는 것이며 이는 '''인공지능의 기술적 성능이나 정교함과는 별개의 문제인 것이다.''' 이를 단순히 인공지능이 인간보다 오류가 적고 정밀하다는 논리로 맞받아치기에는 한계가 있다. 사람의 공정성에 대한 감정은 논리만 따라가는 것이 아니며, 여러 사람의 삶 자체에 영향을 주는 회계감사나 판결에 대해서 문제가 제기될 수 있다. 회계감사가 기업의 생사를 결정할 수 있는 의사결정이라면, 단순한 사실관계의 확인을 넘어선 인간의 감정이 관여할 수밖에 없다. 누군가의 인생[* 삶, 행복]에 막대한 영향을 미칠 수 있는 결정은 단순히 사실만을 보아 결정해서는 안 된다. 기계는 사람을 위해 존재할 뿐 아무리 정교하다 하더라도 인간과 생명, 감정이 있는 존재들의 이익만을 위해 있어야 하며, 만약 특정존재에게 막대한 피해를 끼칠 수 있는 상황이라면 자신을 희생해서라도 그 존재를 위해야 할 존재이다. 이는 단순히 기계가 기술적으로 할 수 있는가 없는가의 문제를 한참 뛰어넘는 지극히 인간적이고 사회적이고 정치적인 문제이며, 감정의 문제이고 인간의 문제이다. 여기서 말하는 문제는 인공지능의 결정으로 인해 누군가 피해를 봐야만 하는 상황인 경우다. 자동차 예시에서 만약 인공지능이 운전자의 안전을 위해 아이를 치고 지나갔고, 천진난만하게 집 앞 마당에서 뛰어놀다 놓친 공을 쫓아 차길로 뛰어든 아이가 인공지능의 통제하에 운행되고있던 자동차에 치여 그 자리에서 즉사했다고 했을 때, 그 아이가 만약 당신의 소중하고 귀한 아이였다 한다면, 그래 내 아이가 잘못해서 찻길로 뛰어들어 내 아이가 죽는게 차안의 운전자의 안전보다 덜 가치있다고 판단하여, 그대로 내 아이가 죽도록 인공지능이 결정한 것이라면, 그 상황에 순응할 수 있겠는가. * 아무리 프로그래밍을 열심히 하더라도 모든 사람의 가치관을 만족시킬 수는 없을 것이다. 게다가 인공지능에 인간의 가치관을 넣는 프로그래밍 자체 역시도 결국 인간의 판단과 검증, 확인이 필요한 일이다. 심지어 사람들 개개인들조차 가치관이 다르고 생각이 다른데, 인공지능이 그 많은 이들의 가치관 모두를 고려하는 가치관을 만들어 낼 수 있겠는가? 이는 엔지니어들이 인간세상을 너무 단순한 함수관계로 생각한다는 비판에 직면할 수밖에 없다. 다른 직역이지만 이를테면, 인공지능이 재판관보다 훨씬 더 방대한 판례를 처리한 결과 판례에 어긋나지 않는 일관성 있는 재판결과를 내릴 수 있다고 가정해보자. 이를 '공정하다'고 평가할 수 있을 것인가? 인공지능에 의한 '무기징역' 혹은 '전자발찌 30년부착', '화학적 거세' 이런 판결을 사람들이 순순히 수용할 수 있을까? 동일한 범죄를 저질러도 반성이나 죄책감의 기미에 따라 판결이 달라지는데 인공지능이 이런 감정의 크기까지 함수로 정량화하는 것이 당금 수용이 가능할까? 동일한 종류의 범죄라도 국민들이 각 사건에 느끼는 법감정에 따라 판결에 영향을 줄 수 있는데, 인공지능이 이러한 영역까지도 알고리즘에 포함시켜서 형량화시킨다는 것은 대중에게 받아들여지지 않을 것이다. '변호'는 최종판결이 아닌 피고인의 의견을 제시하는 것이기에, 변호사의 역량에, 그리고 실력에 따라서 판결에 영향을 다르게 줄 수 있다 한들 '회계감사' 결과는 판사의 '최종판결'에 대응해야 할 문제이다. 물론 아래 주장에서는 가치관 또한 인공지능이 멋대로 산출하는 것이 아닌 인간이 짜는 함수값이라고 하나, 그 '가치관' 을 대체 어떤 인간이 만들 수 있을까? 대기업에서 판결프로그램 인공지능을 만들고, 유수한 일류급 브레인들이 모여서 가치관 프로세스를 짜면 사람들이 그 일률적인 알고리즘의 가치판단을 수용할 수 있다는 말인가? 같은 사안이라도 사람마다 가치판단이 달라지고, 동일인이라도 상황에 따라 가치판단이 달라지는데 과연 오천만명에서 일률적으로 적용할 가치판단 알고리즘을 누가 어떤 권리와 자격으로 만들수 있을까? 당장 '민주주의'의 헌법 이념과 충돌할 수 있는 사항이다. 그리고 가치판단은 사회적 합의와 대중의 수용가능성을 전제한다. * 동일한 문제가 발생했을때 기계가 책임을 지는 것과 사람이 책임을 지는 것은 명백히 다르다. 잘못된 의사결정에 대한 책임 소재 문제도 뒤따른다. 수조원에 달하는 거대한 기업집단의 추상적이고 모호한 경제적 실질을 잘못 판단하여 기업의 실질을 제대로 반영하지 못하는 재무제표를 승인하였고, 그 결과 수조원 대의 회계사기가 발생하면 그에 대한 책임을 인공지능이 질 수나 있는가? 회계사는 기업회계를 조사하고 검증하고 확인하여 결과적으로 그러한 회계사 자신의 판단에 근거하여 기업의 재무제표에 대한 신뢰를 시장에 보증하는 일까지 해야 한다. 여기서 중요한 건, 결과적으로 누군가에게 피해가 발생했을 때 그에 대해 책임질 수 있는가의 문제가 있는데, 기계에 불과한 인공지능에 무슨 수로 책임을 물릴 수 있는가? 책임질 수 없는 권한은 인간세계에 있을 수 없다. 무능하고 무책임한 정권이 그러하듯이 인공지능 또한 다를 것이 없다. 책임은 없고 권한만 있는 결정권을 인간은 절대 용인하지 않는다. 그렇기 때문에 설사 비행의 대부분을 자동항법시스템에 의지하였다 할지라도 그 비행에 대한 최종적인 책임의 귀인을 기장과 부기장에게 지고 그 성공에 대한 대가도 그들에게 지불되는 것이다. '기계가 인간의 고유영역인 감정과 가치관의 최종결정자가 되는 것'이 잘못되었다는 문제제기에 대해서 '인공지능이 판단을 잘못했으니 만든 제조사가 책임을 지면 모든 책임이 해소되고 논란이 종식된다'는 것이야말로 논지 자체에 대한 이해의 무지인 것이다. 인공지능이 잘못된 판단으로 수많은 사람에게 삶의 악영향을 끼쳤을때, 사람들이 그 기계를 욕함으로서 무슨 위안을 얻을 수 있는 것이 아니다. 기계를 비난하면 피해자가 분이 풀릴까? 인공지능이 오류를 인식하고 알고리즘을 따라서 모니터에 '죄송합니다' 라는 문구를 내민들 그게 무슨 소용일까? 잘못된 판결로 한 사람의 인생을 비극으로 치닫게한 인공지능을 망치로 때려부수는 것이 무슨 소용인가? 인공지능 기계를 폐기처분한다 해도 동일한 회로구조를 가지고 같은 소프트웨어를 탑재한 설비는 얼마든지 찍어낼 수 있기에 책임을 다했다고 볼 수 없다. 사람은 문제에 대해 책임을 질 수 있다. 책임 소재라는 것은 피해자의 감정에 관한 것과 비난의 대상이 존재한다는 것이 포함되며, 단순히 금전적인 보상을 의미하지 않는다. 살인한 사람을 사형에 처하는 것 역시 유가족에게 위로가 된다. 살인범에게 가족을 잃은 사람이 배상소송으로 몇 억을 배상받는다 해도 살인범의 진심어린 사과를 대신할 수 없다. 인공지능은 자신의 잘못에 대한 반성을 할 수 없으며 피해자에 대한 속죄와 위로가 불가능하다. 사람은 감정적인 동물이며, 사람이 생물이 아닌 인공지능을 대할 때와 사람을 대할 때가 동일할 수 없기 때문에 발생하는 문제이다. * 인간의 불완전성은 인공지능을 만드는 제조사의 '인간'에게도 동일하게 적용된다 판사가 완벽하지도 않고 뒷돈을 먹은 판사가 의도적 오판을 내릴 수 있다. 하지만, 인공지능 또한 이 문제에서 완벽할 수 없다. 이미 여러 회계감사를 처리했는데 뒤늦게 소프트웨어적 결함이 발견되면 어찌할까? 인공지능은 오히려 누군가 정정하지 않는 한 정해진 알고리즘에 대해 일관성있게 오판을 내릴 것이다. 또한, 여러 조작이나 해킹으로 잘못된 판단이 의도될 가능성 또한 무시할 수 없다. [* 예: 경쟁사의 회계감사에 대해서 해당 감사를 진행하는 인공지능의 담당자를 회유] 인공지능을 사람이 설계하므로 조작될 가능성이 있다. 따라서 이런 문제에 대한 검증이나 제도적 장치를 통해 인공지능의 오류를 회계사보다 낮게 유지할 수 있을 때에야 논의가 진행될 것이다.저장 버튼을 클릭하면 당신이 기여한 내용을 CC-BY-NC-SA 2.0 KR으로 배포하고,기여한 문서에 대한 하이퍼링크나 URL을 이용하여 저작자 표시를 하는 것으로 충분하다는 데 동의하는 것입니다.이 동의는 철회할 수 없습니다.캡챠저장미리보기